8 research outputs found

    Estudio de redes definidas por software (SDN) y su aplicación a la ingeniería de tráfico

    Get PDF
    La complejidad física de la red actual y la gran cantidad de protocolos existentes en entornos en los que abundan las implementaciones propietarias dificultan en gran medida una gestión eficiente de la red. Esto ha hecho que se opte por la búsqueda de una solución más flexible y que permita gestionar de manera eficiente los recursos disponibles. De este modo, debido a las necesidades actuales, nacen las redes definidas por software (Software Defined Networking (SDN)). Este nuevo paradigma introduce una nueva forma de ver las redes, haciendo que el plano de datos y el de control se encuentren totalmente desacoplados. Así, SDN permite una centralización de la red por medio de un controlador central, además de facilitar en gran medida la gestión de los equipos en entornos multi-vendor gracias al protocolo OpenFlow. Todo esto hace que la complejidad de las redes se vea reducida y se incremente su agilidad y escalabilidad. Además, el proceso de innovación en este campo se ve beneficiado en gran medida debido al hecho de tratarse de redes programables. En este TFG se ha estudiado la aplicación de las redes definidas por software a la Ingeniería de Tráfico (Traffic Engineering (TE)), que engloba la aplicación de la tecnología y los principios científicos a la medida, caracterización, modelado y control de tráfico de Internet. Se expondrán las limitaciones de las redes actuales y cómo SDN es capaz de solventar algunos de estos problemas mediante la integración de las ventajas que introduce este nuevo paradigma con las de las tecnologías utilizadas hasta ahora. De esta unión nacen arquitecturas como la basada en PCE (Path Computation Element), que permitirá introducir en el funcionamiento de SDN este elemento, encargado exclusivamente del aprovisionamiento de recursos a los equipos de red. Esta arquitectura servirá como referencia para realizar una implementación propia, que se utilizará para estudiar y analizar el potencial de la definición de redes mediante software y el control centralizado que permiten realizar sobre la red. De esta manera, se pretenden sentar las bases para futuros trabajos, creando herramientas modulares y flexibles que permitan añadir complejidad al entorno fácilmente. En cuanto al desarrollo del trabajo, en primer lugar, se ha seleccionado el software necesario para poder realizar la implementación del escenario escogido. Mininet, un software especialmente orientado al estudio de SDN y el protocolo OpenFlow, ha permitido la creación de topologías de red virtuales controladas mediante el controlador de código abierto OpenDaylight (ODL), mientras que los demás módulos se han implementado mediante script en Python. Verificado el funcionamiento de la implementación realizada, comparando los resultados con escenarios de referencia sin SDN, se ha estudiado la viabilidad de la solución para realizar Ingeniería de Tráfico. Para ello, se ha estudiado el overhead de señalización generado en diversos escenarios, así como la capacidad de adecuar la provisión de recursos en la red a demandas dinámicas del tráfico y anomalías detectadas en la red, proporcionando selectivamente los caminos necesarios. En conclusión, se ha confirmado la flexibilidad de SDN, así como su potencial escalabilidad, generando un adecuado punto de partida para nuevos estudios de mayor profundidad

    Estudio de estrategias distribuidas de reparto de recursos en redes inalámbricas cognitivas mediante teoría de juegos

    Get PDF
    Este proyecto se enmarca dentro del estudio de técnicas eficientes de reconfiguración y adaptación al entorno en un contexto de redes inalámbricas multisalto distribuidas. El proyecto propone técnicas distribuidas de reparto de recursos evaluadas mediante teoría de juegos. La teoría de juegos es una herramienta matemática que analiza las interacciones estratégicas entre múltiples agentes que toman decisiones. Por ello, resulta adecuada para analizar las prestaciones de este tipo de redes, donde cada nodo debe decidir sus parámetros de configuración de manera competitiva. Sin embargo, la complejidad matemática de los problemas a resolver resulta difícil de abordar computacionalmente. Por ello, una aproximación alternativa es el desarrollo de simuladores que modelan las interacciones entre los individuos, partiendo de diversas condiciones iniciales, que permiten evaluar las soluciones propuestas al problema planteado. En este proyecto se ha modificado un simulador ya existente sobre el que se han implementado las distintas estrategias distribuidas de reparto de recursos. Cada alternativa propuesta pretendía mejorar a las anteriores introduciendo un mayor grado de realismo en las simulaciones. Como conclusión, se ha comprobado la capacidad de la teoría de juegos para modelar mecanismos de gestión de recursos radio en redes cognitivas y se han diseñado propuestas distribuidas locales (necesitan poca información de señalización) con buenas prestaciones, comparadas con una solución que garantiza la convergencia y la proximidad al máximo (juego potencial). Por último, se ha demostrado que la incorporación de aprendizaje “no-regret” permite hacer frente a situaciones de no convergencia demostrando la potencialidad de las soluciones propuestas para adaptarse a escenarios variantes. Todo esto permite establecer el punto de partida para desarrollar en el futuro algoritmos distribuidos de gestión de recursos radio y su implementación en protocolos en redes mesh cognitivas

    Estudio de la virtualización de funciones de red (NFV) y aplicación del encadenado de funciones (SFC) para un diseño flexible de red

    Get PDF
    El rápido crecimiento de las redes de telecomunicación y los cada vez más demandados servicios de red por parte de los usuarios, está provocando que el desarrollo y la innovación en el sector IT suponga la aparición de grandes retos para los principales operadores de red. Aunque las redes hayan evolucionado de manera exponencial desde sus inicios, la aparición de nuevas necesidades de ancho de banda, flexibilidad o servicios de red necesarios, han hecho a los desarrolladores plantearse nuevas maneras de reinventar el concepto de redes de telecomunicaciones. Así nace la virtualización de funciones de red (NFV) y las redes definidas por software (SDN), ambas tecnologías proporcionan soluciones a los problemas comentados anteriormente. NFV proporciona soluciones al rápido crecimiento de las redes de telecomunicaciones y a la escasa flexibilidad de adaptación ante nuevas demandas de servicios en redes cuya arquitectura ya está definida facilitando la arquitectura suficiente para el despliegue de funciones de red virtuales en equipos genéricos. Mientras que SDN permite tener el control total del tráfico cursado en una red mediante software, esto hace mucho más eficiente el desarrollo de la Ingeniería de Tráfico. SDN permite desacoplar el plano de datos del plano de control, este estará controlado por una aplicación software capaz de decidir de manera dinámica el funcionamiento de la red. Por último, todo tráfico extremo a extremo necesita atravesar varias funciones de red antes de llegar a su destino, sin embargo, no todo el tráfico es igual. Para suplir esta necesidad surge el encaminamiento de funciones de servicio (SFC), este permite crear cadenas de funciones de servicio diferenciando cada tipo de tráfico y haciendo que cada uno viaje a través de la cadena que más se adapte a sus necesidades. En este proyecto se evalúa Openstack como herramienta cloud NFV junto con OpenDayLight como herramienta SDN. En primer lugar, se estudian los principios de la virtualización de funciones de red. A continuación, se evalúan diferentes escenarios de red, cada uno con diferentes funcionalidades. Se despliega un escenario SFC para el cual se analiza las características principales del tráfico en una red de dominio SFC. Para concluir, se analiza el alcance de NFV, SDN y SFC en la evolución de las redes actuales y se indican posibles trabajos futuros relacionadas con las estas tecnologías

    On optimal resource allocation in virtual sensor networks

    Get PDF
    En los últimos años, el uso de dispositivos interconectados ha aumentado notablemente, tanto que el término Internet de las Cosas (o Internet of Things) se emplea para reconocer este nuevo paradigma tecnológico. En términos generales, consiste en la interconexión digital de todos los dispositivos que nos rodean con el objetivo de que se comuniquen entre ellos, haciéndolos más inteligentes e independientes. Según estudios del pasado año 2017, se vaticinaba que, a finales de 2017, serían aproximadamente 8,4 miles de millones los dispositivos interconectados, llegando a ser 11,2 miles de millones en 2018. Según sus predicciones estas cifras se duplicarían para 2020, alcanzando los 20,5 miles de millones de dispositivos interconectados.Internet de las Cosas se basa en las redes inalámbricas de sensores (Wireless Sensor Networks - WSNs), compuestas por un elevado número de dispositivos de bajo coste y bajo consumo capaces tanto de monitorizar su entorno como de procesar datos y comunicarse entre sí de un modo cooperativo. Tal y como ha demostrado su desarrollo durante los últimos años, estas redes tienen cada vez mayor importancia en nuestra sociedad, dado el considerable número de aplicaciones a las que puede dar servicio. Internet de las Cosas no solo está ganando fuerza en el sector tecnológico, sino que también se está asentando cada vez más en nuestra sociedad. Da servicio a la gestión de casas inteligentes (Smart Homes), o incluso ciudades (Smart Cities), la monitorización médica domiciliaria, la automatización industrial y/o agrícola, y un largo etcétera.Actualmente, el despliegue habitual en el caso de las redes de sensores se centra en una aplicación determinada. Es decir, se despliegan sensores específicos que crean una red concreta para monitorizar cierta información, independientemente de que en esa zona geográfica existan otras redes desplegadas para otros usos, produciéndose así una superposición de infraestructuras de red. Esta metodología no resulta eficiente, más aun teniendo en cuenta que en la mayoría de los casos de uso, los sensores suelen estar inactivos la mayor parte del tiempo. Por otra parte, el desarrollo tecnológico de los sensores puede permitir también el despliegue de nodos multi-propósito capaces de monitorizar diversos parámetros con un único dispositivo. En estos nuevos escenarios, parece razonable plantear mecanismos que permitan que aplicaciones compartan los recursos físicos disponibles (sensores y redes) en una determinada zona, independientemente de su heterogeneidad. En este contexto surge el concepto de redes virtuales de sensores (Virtual Sensor Networks- VSNs). Estas redes tratan de desacoplar el despliegue físico de sensores de las aplicaciones que funcionan sobre ellos. De este modo, es posible reutilizar redes de sensores más allá de su intención original, para dar servicio a nuevas aplicaciones, con las consiguientes mejoras en cuanto a flexibilidad, eficiencia, reducción de costes, etc. Por lo tanto, las VSNs tienen un gran potencial para mejorar el rendimiento y la escalabilidad en el despliegue de las redes inalámbricas de sensores, facilitando la reutilización de recursos. En este contexto, esta tesis pretende abordar algunos de los múltiples retos de investigación que supone llevar efectivamente a la práctica esta nueva realidad.Como primer paso, se ha propuesto un análisis matemático formal que plantea, desde varias perspectivas, un problema de optimización para la asignación de recursos en una red virtual de sensores. Inicialmente se plantea el problema desde una perspectiva estática, en la que la red debe satisfacer durante todo su tiempo de vida los requisitos de las aplicaciones demandantes. El problema se ha analizado mediante la evaluación detallada de los parámetros que lo modelan, lo que ha permitido su validación. Tras esta, se ha procedido al diseño de un algoritmo heurístico, basado en la resolución iterativa de problemas lineales relajados y simplificados, capaz de aproximarse a la solución óptima en menor tiempo computacional. En segundo lugar, se ha ampliado el problema considerando en este caso un escenario dinámico, donde distintas aplicaciones llegan al sistema en diferentes instantes de tiempo y los nodos pueden quedarse sin batería, por lo que la red tiene que ser reconfigurada. Es decir, hay una reasignación de recursos. Debido a que la asignación se realiza a medida que llegan las aplicaciones y no se puede tener una visión global de lo que llegará en el futuro, no son estrategias óptimas. Por ello, también se ha diseñado un algoritmo de optimización global que, asumiendo el conocimiento exacto de cuándo llegarán las aplicaciones, los recursos que se van a necesitar y sus tiempos de vida, selecciona cuáles van a poder ser desplegadas en el sistema y en qué nodos. Aunque no es un diseño implementable desde un punto de vista práctico, simplemente trata de proporcionar una cota superior para evaluar las estrategias diseñadas. La gran complejidad computacional de esta propuesta ha hecho necesaria la búsqueda de escenarios donde poder analizar su comportamiento en tiempo razonable. Finalmente, y como prueba de concepto, se ha diseñado una arquitectura para la implementación de una solución real para la asignación dinámica de recursos en redes de sensores compartidas. Gracias al método OTA (Over The Air programming), que consiste en la programación y configuración remota de los dispositivos de la red de sensores, se ha podido comprobar que las propuestas matemáticas diseñadas durante la tesis podrían ser implementables en dispositivos reales. Específicamente, el diseño contempla diversas configuraciones de red en las que los dispositivos finales son capaces de monitorizar ciertos parámetros (temperatura, humedad, luminosidad y presencia) y enviar las medidas a través de la red multisalto a un controlador central. Dicho controlador, de acuerdo a las mismas, decide la reconfiguración de la red, materializable mediante la reprogramación de los dispositivos según los diversos programas de sensado que se han diseñado.En definitiva, este trabajo presenta distintos algoritmos matemáticos para la asignación eficiente de recursos en redes virtuales de sensores y muestra su implementabilidad gracias un diseño en dispositivos reales.<br /

    Sistema de ejecución de funciones serverless en el continuum de la nube con una gestión del consumo energético inteligente.

    Get PDF
    En este trabajo fin de grado se ha desplegado una infraestructura IoT,Edge y Cloud para poder ejecutar funciones Serverless. En él se plantea una gestión de los recursos inteligente poniendo el foco de atención en el ahorro energético frente a otros enfoques tradicionales donde se prioriza los tiempos de ejecución o la disponibilidad.<br /

    Propuesta y evaluación de un sistema centralizado de control de los parámetros de QoS en una red IEEE 802.11.

    Get PDF
    Este Trabajo Fin de Máster propone un algoritmo para mejorar la priorización de flujos que realiza el estándar IEEE 802.11e por defecto mediante su método EDCA. A diferencia de la mayoría de soluciones propuestas por otros autores, que se basan en una solución distribuida en la que cada punto de acceso actúa de modo independiente al resto, en este Trabajo Fin de Máster se propone un algoritmo centralizado, capaz de controlar todos los puntos de acceso de la red simultáneamente. Esta centralización permite proponer soluciones más avanzadas que consiguen mejorar los resultados obtenidos con los algoritmos distribuidos analizados en el estado del arte. El algoritmo propuesto se ha programado en ns-3, el cual es un simulador de red de código libre ampliamente utilizado en el ámbito académico. Dicho algoritmo se pone a prueba en diferentes escenarios también programados en ns-3, donde se compara su rendimiento en diferentes situaciones de tráfico con respecto al método EDCA y otras soluciones encontradas en la bibliografía

    Laboratorio virtual para el estudio de redes definidas por software en entornos de área extensa (SD-WAN)

    No full text
    Este trabajo se enmarca en el contexto actual de desarrollo de las redes definidas por software aplicadas al diseño eficiente de redes WAN (SD-WAN), en contraposición a las redes WAN tradicionales (mayoritariamente basadas en MPLS). El objetivo principal es analizar las fortalezas de este nuevo paradigma, identificando las ventajas de un diseño flexible, optimizado y más fácil de gestionar mediante la separación del plano de datos y de control. Se propone desarrollar un laboratorio virtual capaz de modelar los casos de uso habituales facilitando el análisis detallado de propuestas de diseño, así como la utilización del mismo como herramienta docente<br /

    Provisión de Calidad de Servicio en Redes Móviles Ad Hoc Basada en el Diseño Cross-layer de Algoritmos de Encaminamiento

    Get PDF
    Resumen: Las redes móviles ad hoc se caracterizan por su autosuficiencia, gracias a la descentralización de las capacidades funcionales de los terminales, constituyendo así una alternativa tecnológica para nuevos escenarios de aplicación, resolviendo el despliegue de redes donde resulta inviable el establecimiento de una infraestructura. El encaminamiento, responsable del establecimiento de rutas multisalto, y la gestión de recursos realizada por el nivel de acceso al medio, son especialmente relevantes a la hora de definir los criterios de admisión en este entorno cooperativo. El objetivo de esta tesis es la propuesta y evaluación de un encaminamiento con calidad de servicio basado en un diseño cross-layer sustentado en la cooperación entre el encaminamiento y el nivel de acceso al medio. Se pretende así diseñar un mecanismo de control de admisión distribuido que garantice la provisión de la calidad de servicio extremo a extremo adaptándose al dinamismo de las redes móviles ad hoc. Abstract: Mobile ad hoc networks are characterized by the self-organizing capacity provided by the decentralization of the terminals functionalities, which turns them into a technological alternative for new scenarios of application, solving the deployment of networks where it is difficulty to establish a net-infrastructure. Routing, responsible of establishing multihop routes, and resource management performed by the medium access control level, are especially relevant in order to define the admission criteria. In this context, the main goal of this thesis is the proposal and evaluation of a quality of service routing based on a cross-layer design supported by the cooperation with the medium access layer. Therefore, it is intended to design a distributed admission control mechanism capable of guaranteeing end to end quality of service provision with an appropriate adaptation to the dynamism of mobile ad hoc networks
    corecore